16 - Informationstheorie [ID:5152]
50 von 559 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Ich heiße Sie herzlich willkommen zur Vorlesung der Informationstheorie.

Wir waren im sechsten Kapitel angekommen, die Informationstheorie für kontinuierlich verteilte Zufallsvariablen.

Wir werden sehen heute, dass das grundsätzlich ein Problem ist.

Und wir umgehen das Problem zunächst ein bisschen dadurch, dass wir uns nicht um Quellen kümmern,

sondern zuerst um Kanäle, genau umgekehrt wie im Kapitel 3 und 4 und 5, umgekehrte Reihenfolge.

Und ein Kanal mit kontinuierlichem Ausgang ist halt gekennzeichnet durch die

Wahrscheinlichkeitsdichtefunktionen für die Ausgangsvariablen.

Man darf nicht mehr Symbol sagen, man muss jetzt reelle Ausgangsvariablen sagen, bei gegebenen Eingangssymbolen.

Und wenn sich diese Wahrscheinlichkeitsdichten unterscheiden für die unterschiedlichen Eingangssymbolen,

dann kann der Kanal irgendwie Informationen übertragen.

Dann haben wir also rekapituliert, wie war das bei den diskreten Zufallsvariablen.

Und dann haben wir einfach die kontinuierliche Zufallsvariablen quantisiert und damit ist sie wieder diskret geworden.

Also wie bei einem AD-Umsetzer zum Beispiel.

Auch bitte um die AD-Umsetzer macht man 256 Stufen.

Okay. Und da schreibt man sich die Gleichung wieder hin und ersetzt also die Wahrscheinlichkeit,

die eigentlich das Integral über die Wahrscheinlichkeitsdichtfunktion über dieses schmale Intervall sein sollte.

Einfach durch die Höhe der Wahrscheinlichkeitsdichtfunktion mal Intervallbreite.

Also die berühmte Rechteckannäherung für die Integration.

Und diese Rechteckannäherung wird natürlich umso besser und geht dann über zum Integral,

wenn Sie diese Quantisierungsintervalle, die Schrittweite, praktisch gegen Null gehen lassen.

Und was passiert dann, wird aus der Summe ein Integral und aus der Schrittweite epsilon wird das dx oder dy,

in dem Fall, weil wir ja über y aufzählen.

Und wo wir Glück haben, ist hier drin, dass sich im Logarithmus eben diese Schrittweite kürzt und damit weg ist.

Und damit kriegen wir also diesen Zusammenhang, ist es eigentlich genau das gleiche wie bisher,

ersetze einfach Wahrscheinlichkeit durch Wahrscheinlichkeitsdichtfunktion, die Summe durch Integral.

Mir war es jetzt nicht, klar?

Okay. Und das gilt also für die anderen Größen wie Kapazität oder Cutoff Rate oder Gelegerfunktion genauso.

Da kann man die gleiche Rechnung machen, völlig analog.

Und dann haben wir uns also eine M-stufige PAM-Übertragung.

Unsere Zufallsvariable am Ausgang muss reell sein, weil nur eine reelle Zufallsvariable hat eine Wahrscheinlichkeitsdichtfunktion.

Komplexe Zahlen kann ich keine Wahrscheinlichkeitsdichtfunktion hinschreiben.

Ich hoffe, das ist klar.

Die Wahrscheinlichkeitsdichtfunktion ist die Ableitung der Verteilungsfunktion.

Und die Verteilungsfunktion sagt, wegen welcher Wahrscheinlichkeit ist eine Variable kleiner als das Argument der Verteilungsfunktion.

Klar.

Aber das Kleiner-Gleich-Zeichen bei komplexen Zahlen ist ein bisschen schwierig, funktioniert nicht.

Sie können nicht sagen, was ist kleiner, J oder 3.

Das sind nicht vergleichbar.

Verstanden?

Man kann die Beträge vergleichen, aber nicht...

Man kann komplexe Zahlen nur eine Verbund-Wahrscheinlichkeitsdichtfunktion, eine zweidimensionale für den Reallteil und den imaginären Teil machen.

Aber nicht für die eine komplexe Variable.

Okay.

Da muss das jetzt eine PAM sein, eine ASK.

Für eine QAM oder eine PSK-Übertragung müssen wir das dann noch modifizieren.

Das machen wir nicht hier, sondern in der digitalen Übertragung.

Da haben wir hier eine reelle Zufallsvariable A.

Die ist A von K, das ist die Zufallsvariable.

Das abstrakte Symbol X wird in eine reelle, diskrete, reelle Zahl umgesetzt,

Teil einer Videoserie :

Zugänglich über

Offener Zugang

Dauer

01:31:15 Min

Aufnahmedatum

2015-06-16

Hochgeladen am

2015-07-02 11:41:01

Sprache

de-DE

Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.

Einbetten
Wordpress FAU Plugin
iFrame
Teilen